„Tanie i leniwe” – historycy krytykują filmy o historii sztucznej inteligencji, które zostały kliknięte miliony razy


Filmy historyczne generowane przez sztuczną inteligencję budzą fascynację i krytykę na TikToku. Historycy krytykują jednak nieścisłości i ostrzegają przed zniekształconymi przedstawieniami.
Na TikToku krążą filmy generowane przez sztuczną inteligencję, które składają wyjątkowe obietnice. Chcą pokazać perspektywę ludzi, którzy żyli w dawno minionych epokach. Niektóre obrazy wyglądają tak, jakby bohaterowie filmowali telefonem komórkowym.
Zaniepokojeni historycy zabrali głos w BBC . Filmy te cieszą się dużą popularnością, ale pojawiają się wątpliwości co do ich wiarygodności historycznej.
Historycy krytykują BBC za nieścisłości w nagraniach. Historyk i archeolog Dr. Hannah Platts na przykład opisuje niektóre elementy wdrożenia jako „tanie i leniwe”. Wytrenowane oko eksperta natychmiast wychwyciło pewne błędy.
Barbara Keys, profesor historii USA na Uniwersytecie w Durham, powiedziała BBC, że sztucznie generowane filmy często „nie zawierają żadnych informacji”. Według raportu nie ma w tym nic złego. Błędy mogą jednak zniekształcić obraz historii, a w skrajnych przypadkach formaty mogą zostać wykorzystane do celowego manipulowania opiniami widzów na temat wydarzeń historycznych.
Mimo wszystko eksperci BBC uważają, że filmy oparte na sztucznej inteligencji mają potencjał. Mogliby zachęcać widzów do przeprowadzenia własnych badań. Podobne stanowisko zajmuje futurolog Thomas Druyen, omawiając ogólnie rzecz biorąc sztuczną inteligencję. Od 2015 roku zajmuje się badaniem wpływu systemów sztucznej inteligencji na ludzką psychikę.
Ostrzega przed niebezpieczeństwami wynikającymi z bezkrytycznego wykorzystywania ludzkiej kreatywności. Sztuczną inteligencję należy rozumieć jako narzędzie wspomagające i przyspieszające procesy twórcze. Jeśli jednak maszyna sama stanie się kreatywna, istnieje ryzyko wpadnięcia w „wzorzec bodziec-reakcja”. Przykładem tego są algorytmy rekomendacji. Kontrolują zachowanie ludzi w sieci, więc reagują tylko na sugerowane treści.
FOCUS